Технологичната индустрия се опита да намали всеобхватните пристрастия на AI. Сега Тръмп иска да сложи край на своите „събудени усилия на AI“
Cambridge, Mass. (AP) - След като се отдръпват от стратегиите си за многообразие, правдивост и приобщаване на работното си място, софтуерните компании към този момент могат да се сблъскат с второ разчитане на работата си в AI артикули.
В Белия дом и републиканския конгрес „ Събуди се AI “ размени нездравословната алгоритмична дискриминация като проблем, който се нуждае от поправяне. Миналите старания за „ придвижване на личния капитал “ и ограничение на производството на „ нездравословни и предубедени резултати “ са цел на следствие, съгласно призовки, изпратени в Амазонка, Гугъл, Meta, Microsoft, Openai и 10 други софтуерни компании предишния месец от Комитета на правосъдната власт на Съединени американски щати.
и общоприетия клон на американския зов на апелацията. съдействие с външни откриватели. Вместо това е инструктиране на учените да се съсредоточат върху „ понижаване на идеологическите пристрастия “ по метод, който „ ще даде опция за преуспяване на индивида и икономическа конкурентоспособност “, съгласно копие на документа, получен от Асошиейтед прес.
По някакъв метод софтуерните служащи са привикнали с бич от цели, ръководени от Вашингтон, засягащи работата им.
Но последната промяна провокира опасения измежду специалистите в региона, в това число социологът от Харвардския университет Елис Монк, който преди няколко години се обърна от Гугъл, с цел да помогне на своите AI артикули по -приобщаващи.
Тогава софтуерната промишленост към този момент знаеше, че има проблем с клона на AI, който образова машини да „ виждат “ и да схващат изображенията. Computer Vision притежаваше огромно комерсиално заричане, само че повтори историческите пристрастия, открити в по -ранните технологии за камери, които изобразяват черно -кафяви хора в нестабилна светлина.
„ Черните хора или по -тъмните кожи ще дойдат на фотографията и от време на време изглеждаме неуместно “, споделя Монк, академик по колоризъм, форма на дискриминация, учредена на кожните тонове на хората и други характерности.
;
„ Потребителите несъмнено имаха голям позитивен отговор на измененията “, сподели той.
Сега Монк се чуди дали сходни старания ще продължат в бъдеще. Въпреки че той не има вяра, че неговият мащаб на тона на кожата на монашеството е заплашен, тъй като той към този момент е изпечен в десетки артикули в Гугъл и на други места-включително телефони на камерата, видеоигри, генератори на AI изображения-той и други откриватели се тормозят, че новото въодушевление е смразяващо бъдещите начинания и финансирането, с цел да направи технологията по-добре за всички.
„ Гугъл желае техните артикули да работят за всички, в Индия, Китай, Африка, ET Cetera. сподели. „ Но може ли бъдещото финансиране за тези типове планове да бъде намалено? Абсолютно, когато политическото въодушевление се измества и когато има огромен напън да се пазари доста бързо. “
Тръмп редуцира стотици просвета, технологии и здравни финансиране, засягащи тематики на DEI, само че въздействието му върху комерсиалното развиване на чатботите и други артикули на AI е по -неректно. Разследвайки фирмите на AI, републиканският кореспондент Джим Джордан, ръководител на Комитета по правосъдната власт, съобщи, че желае да разбере дали администрацията на някогашния президент Джо Байдън е „ принудена или сговор с “, с цел да цензурира законната тирада.
Майкъл Крациос, шеф на Службата за просвета и софтуерни политики на Белия дом, съобщи по време на събитието в Тексас този месец, че политиките на AI на Байдън „ предизвикват обществените разделения и преразпределението в името на справедливостта. “
Администрацията на Тръмп отхвърли да даде Кратис за изявление, само че цитира няколко образеца за това, което има поради. Единият беше линия от тактиката за проучване на AI от ерата на Байдън, която споделя: „ Без подобаващи контроли, AI системите могат да усилват, увековечават или изострят неравномерните или нежелани резултати за хората и общностите. “
даже преди Байдън да встъпи в служба, възходящото изследователско и персонални анекдоти привличаше вниманието към вредите от вредите на AI.
Едно изследване сподели, че технологията за независимо шофиране на коли е мъчно да открие пешеходци с по-тъмнокожи кожа, излагайки ги в по-голяма заплаха да се трансферират. Друго изследване с молба на известни генератори на AI Text-To-Obage да създадат картина на хирург, откри, че са произвели бял мъж към 98% от времето, надалеч по-високи от действителните пропорции даже в мощно доминирано от мъжки пол.
Софтуер за съвпадане на лица за отключване на телефони погрешно разпознати азиатски лица. Полицията в градовете на Съединени американски щати непозволено арестува чернокожи мъже въз основа на мачове за признание на подправени лица. И преди десетилетие, приложението за фотоси на Гугъл сортира фотография на двама чернокожи в категория, обозначена като „ горили “.
Дори държавните учени в първата администрация на Тръмп заключават през 2019 година, че технологията за различаване на лица се показва неравномерно въз основа на раса, пол или възраст.
Изборът на Байдън принуди някои софтуерни компании да ускорят фокуса си върху справедливостта на AI. Пристигането на Chatgpt от 2022 година добави нови цели, разпалвайки търговски взрив в нови AI приложения за сформиране на документи и генериране на изображения, прилепяне на компании като Гугъл, с цел да облекчи своята нерешителност и да навакса.
Тогава пристигна Gemini AI Chatbot на Гугъл - и дефектно стартиране на продукта предходната година, което ще го направи признакът на „ Събуди се AI “, който консерваторите се надяваха да разгадаят. Оставени на личните си устройства, AI принадлежности, които генерират изображения от писмена подкана, са склонни да увековечават стандартите, насъбрани от всички образни данни, на които са били подготвени.
Гугъл не беше по-различен и когато беше помолен да изобразява хора в разнообразни специалности, е по-вероятно да благоприятствате лица и мъже с по-светла кожа и когато дамите бяха определени, по-младите дами, съгласно личните обществени проучвания на компанията.
Гугъл се опита да сложи механически пазари, с цел да понижи тези разлики, преди да разточи Gemini на Gemini, които AI Image Generator преди да понижат тези разлики.
Гугъл се опита да сложи механически производители, с цел да понижи тези разлики, преди да се разточи на Gemini. В последна сметка се прекалява с пристрастията, поставяйки хората от цвят и дамите в неточни исторически условия, като да вземем за пример да дават отговор на молба за американски основаващи татковци с изображения на мъже в облеклото от 18 век, които наподобяват като черни, азиатски и индиански. Гугъл quickly apologized and temporarily pulled the plug on the feature, but the outrage became a rallying cry taken up by the political right.
With Гугъл CEO Sundar Pichai sitting nearby, Vice President JD Vance used an AI summit in Paris in February to decry the advancement of “downright ahistorical social agendas through AI, ” naming the moment when Google’s AI image generator was “trying to tell us that George Washington was Черно, или че американските течести в Първата международна война в действителност бяха дами. ”
„ Трябва да помним уроците от този безразсъден миг “, съобщи Ванс на събирането. “And what we take from it is that the Trump administration will ensure that AI systems developed in America are free from ideological bias and never restrict our citizens’ right to free speech. ”
A former Biden science adviser who attended that speech, Alondra Nelson, said the Trump administration’s new focus on AI’s “ideological bias ” is in some ways a recognition of years of work to address algorithmic bias that can affect housing, mortgages, health care and other aspects of people’s lives.
“Fundamentally, to say that AI systems are ideologically biased is to say that you identify, recognize and are concerned about the problem of algorithmic bias, which is the problem that many of us have been worried about for a long time, ” said Nelson, the former acting director of the White House’s Office of Science and Technology Policy who co-authored a set of principles to protect civil Права и цивилен свободи в заявките за ИИ.
Но Нелсън не вижда доста място за съдействие на фона на омаловажаването на справедливите ИИ начинания.
„ Мисля, че в това политическо пространство, за жалост, това е малко евентуално “, сподели тя. „ Проблеми, които са друго наречени- алгоритмична дискриминация или алгоритмични пристрастия, от една страна, и идеологически пристрастия от друга- ще бъдат за жалост ще ни преглеждат като два разнообразни казуса. “